discrete state — diskrečioji būsena statusas T sritis fizika atitikmenys: angl. discrete state vok. diskreter Zustand, m rus. дискретное состояние, n pranc. état discret, m … Fizikos terminų žodynas
diskrečioji būsena — statusas T sritis fizika atitikmenys: angl. discrete state vok. diskreter Zustand, m rus. дискретное состояние, n pranc. état discret, m … Fizikos terminų žodynas
état discret — diskrečioji būsena statusas T sritis fizika atitikmenys: angl. discrete state vok. diskreter Zustand, m rus. дискретное состояние, n pranc. état discret, m … Fizikos terminų žodynas
дискретное состояние — diskrečioji būsena statusas T sritis fizika atitikmenys: angl. discrete state vok. diskreter Zustand, m rus. дискретное состояние, n pranc. état discret, m … Fizikos terminų žodynas
Markow-Kette — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette, Markof Kette) ist ein spezieller stochastischer Prozess. Man unterscheidet eine Markow Kette in… … Deutsch Wikipedia
Harris-Ketten — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette) ist eine spezielle Klasse von stochastischen Prozessen. Man unterscheidet eine Markow Kette in… … Deutsch Wikipedia
Markoff-Kette — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette) ist eine spezielle Klasse von stochastischen Prozessen. Man unterscheidet eine Markow Kette in… … Deutsch Wikipedia
Markoffkette — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette) ist eine spezielle Klasse von stochastischen Prozessen. Man unterscheidet eine Markow Kette in… … Deutsch Wikipedia
Markov-Chain — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette) ist eine spezielle Klasse von stochastischen Prozessen. Man unterscheidet eine Markow Kette in… … Deutsch Wikipedia
Markov-Eigenschaft — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette) ist eine spezielle Klasse von stochastischen Prozessen. Man unterscheidet eine Markow Kette in… … Deutsch Wikipedia